In der Informationstheorie ist die bedingte Entropie ein Maß für die „Ungewissheit“ über den Wert einer Zufallsvariablen , welche verbleibt, nachdem das Ergebnis einer anderen Zufallsvariable bekannt wird. Die bedingte Entropie wird geschrieben und hat einen Wert zwischen 0 und , der ursprünglichen Entropie von . Sie wird in der gleichen Maßeinheit wie die Entropie gemessen.
Speziell hat sie den Wert 0, wenn aus der Wert von funktional bestimmt werden kann, und den Wert , wenn und stochastisch unabhängig sind.
© MMXXIII Rich X Search. We shall prevail. All rights reserved. Rich X Search